MENTAL Y LOS LÍMITES DE LA INTELIGENCIA ARTIFICIAL
“Propongo considerar la siguiente pregunta: ¿Pueden pensar las máquinas?” (Alan Turing)
“Cualquier intento de hacer algo similar a inteligencia
en una máquina requeriría poner significado, no solo información, en primer lugar” (David Bohm)
“La máquina no aísla al hombre de los grandes
problemas de la naturaleza, sino que lo sumerge
más profundamente en ellos” (Saint-Exupery)
¿Qué es la Inteligencia?
El término “inteligencia” deriva del latín “intelligere”, que significa escoger o distinguir.
No exista una definición universalmente aceptada de lo que es inteligencia. La inteligencia tiene muchas facetas, no es una cualidad, sino el resultado de la conjunción armónica de varias cualidades, entre ellas las siguientes:
Capacidad de relacionar.
Capacidad de analizar, razonar y de usar el sentido común.
Capacidad de recibir información, memorizar y aprender de la experiencia.
Capacidad de adaptarse al entorno y a nuevas situaciones.
Capacidad de trascender las situaciones y realizar abstracciones.
Capacidad de decisión (elegir, actuar, etc.).
Capacidad de síntesis y de generalización.
Capacidad de detección de patrones.
Capacidad de planificación y de usar estrategias.
A partir de estas cualidades, podemos intentar una definición general de inteligencia. La inteligencia es una facultad mental: la capacidad de entender una situación, tema o problema y adoptar la decisión óptima o más adecuada en cada momento según el objetivo perseguido, siguiendo un criterio lógico o razonamiento de tipo general.
Esta definición implica dos cosas: 1) capacidad de síntesis (entender los rasgos principales de una situación, tema o problema); 2) capacidad de análisis para adoptar la decisión más adecuada.
El hecho de que la inteligencia implique síntesis y análisis, es decir, la unión de los opuestos, hace que la inteligencia sea algo próximo a la conciencia, pues la conciencia une los opuestos en general. Pero la inteligencia es una facultad mental que interviene tras la conciencia. La inteligencia está subordinada a la conciencia. Todas las cualidades de la inteligencia están integradas desde el punto de vista superior de la conciencia.
Según Howard Gardner [2006], existen muchos tipos de inteligencia: lingüística, espacial, lógico-matemática, musical, etc.
Según Daniel Goleman [2010], existe la inteligencia emocional: la capacidad de reconocer y gestionar sentimientos propios y ajenos.
Existe también la inteligencia creativa, la capacidad de relacionar conceptos conocidos para producir conceptos nuevos y originales.
La Inteligencia Artificial
La inteligencia artificial (IA) es la hipotética inteligencia de un sistema que exhibe algunas de las cualidades de la inteligencia humana. La cuestión que plantea la IA es: ¿es posible teórica y prácticamente construir una máquina inteligente? Un sistema inteligente debe ser finito, abierto, funcionar en tiempo real y tener capacidad de adaptación incluso con insuficientes conocimientos y recursos.
La IA tiene sus raíces en los desarrollos de la lógica formal, con figuras como Boole (álgebra de la lógica), Frege (lógica matemática), Peano (lógica matemática como lenguaje formal), Russell (fundamentación lógica), Shannon (teoría de la información) y Wiener (cibernética). Todos ellos contribuyeron a establecer los fundamentos para la automatización del razonamiento.
El término “inteligencia artificial” fue acuñado por John McCarthy en la conferencia sobre este tema que tuvo lugar en la Universidad Dartmouth College (Hanover, New Hampshire, EE.UU.) en el verano de 1956, un evento organizado por el propio McCarthy, Marvin Minsky, Nathalien Rochester y Claude Shannon. Participaron diez investigadores: los 4 organizadores y 6 más (Ray Solomonoff, Oliver Selfrige, Trenchard More, Arthur Samuel, Herbert Simon y Allen Newell) y duró un mes. Su hipótesis de trabajo fue: “Todo aspecto de aprendizaje o cualquier otra característica de inteligencia puede ser definido de forma tan precisa que puede construirse una máquina para simularla” . El encuentro fue un éxito, y se considera esta conferencia como la introducción de una nueva área científica de conocimiento, el evento fundacional formal de la IA. McCarthy recibió el premio Turing en 1971 precisamente por sus contribuciones en el campo de la IA.
Se han propuesto numerosas definiciones diferentes de “inteligencia artificial”, pero no se ha logrado un consenso general. Esto se debe a su insuficiente fundamentación conceptual. Hay problemas que no se sabe si son de IA o puramente computacionales.
Para Marvin Minsky −que estableció los fundamentos de la IA, guiado por el sueño visionario de dotar a los ordenadores con la capacidad de razonamiento− “La inteligencia artificial es la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si las hiciera un ser humano”. Según Minski, las máquinas llegarán a pensar como los seres humanos.
Minsky [1980] elaboró una teoría de la inteligencia que denominó “la sociedad de la mente”. La sociedad de la mente es un conjunto de agentes independientes, que ejecutan acciones sencillas y específicas y que colaboran entre sí. El pensamiento y la inteligencia es el resultado de esta asociación que logra realizar tareas que los elementos individuales no pueden realizar aisladamente. Este enfoque, según Minsky, es válido tanto para las máquinas como para la mente humana.
Origen de la IA
El origen formal de la IA se remonta a Octubre de 1950, cuando Alan Turing publicó su su famoso artículo en la revista Mind, titulado “Computing machinery and intelligence” (Máquinas de computación e inteligencia) [Turing, 1950]. En este artículo planteó la pregunta “¿Pueden pensar las máquinas?” y propuso el “juego de la imitación” (imitation game) llamado posteriormente “test de Turing” en su honor.
El test de Turing es un experimento mental para evaluar la inteligencia de una máquina, basado en la idea de que la interacción verbal es el medio en que la inteligencia se hace más patente:
Un interrogador dialoga a través de un terminal con un programa de ordenador por un lado y con un humano por otro, sin saber quien es el humano y quien el programa, y su objetivo era averiguarlo. El programa intenta simular en todo momento un comportamiento humano. Si el interrogador se equivocaba de elección, el programa había pasado el test, que para Turing significaba que el programa se podía considerar inteligente, al ser indistinguible de un humano. “Si una máquina actúa tan inteligentemente como un ser humano, entonces es tan inteligente como un ser humano” [Turing, 1950].
El test de Turing está inspirado en un juego social de la época, el juego de la imitación. Este juego necesita tres personas, un hombre (A), una mujer (B) y un interrogador (C). El interrogador está separado de A y B y se comunica con ellos mediante notas escritas. Para el interrogador el objetivo del juego es determinar cuál de los dos es el hombre y cuál es la mujer, por medio de preguntas y las respuestas obtenidas.
Turing pretendía dar una definición empírica (conductista o positivista) de inteligencia, pues a nivel teórico es imposible definirla con exactitud.
Para Turing, la mente es el resultado de la complejidad de las conexiones neuronales. Cuando conozcamos a fondo el funcionamiento del cerebro, podremos implementar dichos procesos en un sistema mecánico. Turing predijo que las máquinas podrían llegar a alcanzar un nivel de inteligencia comparable con la inteligencia humana, e incluso superarla. Las máquinas competirán con los humanos en todos los campos intelectuales.
Objeciones a la IA
Turing analizó una serie de posibles objeciones a su teoría de que las máquinas pueden pensar, en concreto, las nueve siguientes:
Objeción teológica.
Pensar es una cualidad del alma inmortal que Dios ha proporcionado a los seres humanos, pero no a los animales ni máquinas. Por tanto, ni animales ni máquinas podrían llegar a pensar. La respuesta de Turing es que esta objeción limitaría la omnipotencia divina, pues Dios, debería tener la potestad de conceder el pensamiento a una máquina si lo estimara conveniente. Además, nosotros somos instrumentos de Dios y tenemos también capacidad de creación.
Objeción del avestruz (la cabeza en la arena).
Las consecuencias del hecho de que las máquinas pensaran serían demasiado horribles, por lo que debemos esperar y creer que no pueden hacerlo. Para Turing, se confunde entre lo que no se puede hacer y lo que no se debe hacer.
Objeción matemática.
Los sistemas lógicos están limitados en su capacidad de razonamiento por el teorema de Gódel. Esto implica que también existen limitaciones en el poder computacional de las máquinas. Turing responde que estas limitaciones son ciertas, pero que también las tienen los humanos.
Argumento de la consciencia.
Hasta que una máquina no sea consciente, sepa escribir un soneto o componer un concierto con base en las emociones que siente, y no solo sepa generar símbolos, no se podrá considerar inteligente. Para Turing no podemos penetrar en el interior de una persona, cómo siente. Solo uno mismo puede conocer su interior. En cualquier caso, una máquina puede ser consciente de sus procesos internos.
Argumento de varias incapacidades.
Nunca podrá inducir a una máquina a hacer determinadas tareas, por ejemplo: ser bueno, amistoso, tener iniciativa, tener sentido del humor, enamorarse, etc. Turing responde que la primera objeción se basa en una aplicación equivocada de la inducción científica. Del hecho de que las máquinas no han hecho tales acciones, se pretende deducir que no pueden hacerlas.
Las máquinas no pueden cometer errores, y los humanos sí. Para Turing, las máquinas pueden ser programadas sin problemas para cometer errores.
Una máquina no puede tener diversidad de comportamientos porque siempre tiene un comportamiento mecánico. Para Turing, con suficiente programación, la máquina puede mostrar una gran variedad de comportamientos.
Objeción de Lady Lovelace.
Una máquina sólo puede hacer aquello que le hemos ordenado que haga, no tiene iniciativa, no es autónomo ni creativo. Para Turing, este es el argumento más utilizado como crítica, pero advierte que cualquier sistema suficientemente complejo puede ser indistinguible de un sistema creativo, con iniciativa en el que no podremos saber si su decisión es autónoma o determinada por su programación.
Argumento de la continuidad del sistema nervioso.
Las máquinas son máquinas discretas, de estados finitos. El sistema nervioso no es discreto, sino analógico. Para Turing, cualquier sistema analógico puede ser simulado por un sistema de computación digital.
Argumento de la informalidad del comportamiento.
No es posible elaborar un conjunto de reglas que describa lo que una persona debería hacer en toda clase de circunstancias. Para Turing, se confunden “reglas” con “leyes de comportamiento”. Las máquinas obedecen las reglas con exactitud, pero un sistema de reglas suficientemente complejo podría hacer frente a toda clase de circunstancias.
Argumento de la percepción extra-sensorial.
Una máquina no tiene capacidad de percepción extra-sensorial en sus cuatro variantes: telepatía, clarividencia, precognición y psicoquinesis, capacidades que desafían a la ciencia convencional. Para Turing este tema no tiene sentido en las máquinas.
Según Turing, el principal argumento a favor de la IA se encuentra en el aprendizaje. En lugar de producir un programa para simular la mente adulta, Turing propone partir de una máquina muy simple, la más simple posible (como la mente infantil), basada en un lenguaje simbólico, con principios generales (como nombrar, señalar, etc.) y con un sistema completo de inferencia lógica incorporado. Habría reglas operativas fijas (primarias) y otras reglas secundarias y transitorias. El comportamiento inteligente debe ser flexible, pero sin que produzca un comportamiento aleatorio o bucles repetitivos. Y probablemente sería conveniente incluir un elemento aleatorio, que sería muy útil cuando estemos buscando la solución a un problema, sobre todo cuando existan muchas soluciones posibles. Sería un método mejor que el sistemático, un mecanismo análogo al proceso de evolución en el que hay mutaciones aleatorias.
A esta máquina inicial se le va sometiendo a un proceso de educación y enseñanza progresiva hasta conseguir una mente adulta. Estos dos componentes (el programa inicial y el proceso de educación) están estrechamente relacionados. La máquina se la podría hacer evolucionar sobre la base de recompensas y castigos, como en la vida real.
Inteligencia artificial débil y fuerte
Según John Searle [1980], hay dos tipos de IA:
La IA “débil”, que pretende solo la simulación de la mente humana mediante programas de ordenador. Esto permite realizar experimentos epistemológicos (como probar teorías cognitivas y simularlas) como ayuda en la comprensión de la mente humana.
La IA ”fuerte”, que cree en la posibilidad de construir una mente artificial, o un ordenador con consciencia, pues considera que la mente humana es solo un sistema que procesa símbolos. Un proceso computacional es capaz de modificarse y organizarse a sí mismo puede llegar a ser consciente.
La mayoría de los investigadores de la IA dan la IA débil por supuesto y no se preocupan por la hipótesis de la IA fuerte.
Searle es partidario solo de la IA débil. Ha atacado con dureza el computacionalismo dominante dentro de la actual ciencia cognitiva. El computacionalismo o teoría computacional de la mente, sostiene que la mente humana es un sistema de procesamiento de la información muy similar o incluso idéntico al de un ordenador digital, donde el hardware sería el cerebro.
Searle propuso la metáfora de la caja china para ilustrar que superar el test de Turing no implica tener inteligencia:
Una persona dentro de una caja, siguiendo unas reglas previamente establecidas, muestra en una ventana las respuestas a las frases en chino que le muestran en esa misma ventana, pero sin comprender su significado. Aparentemente, externamente, superficialmente, la caja “entiende” el chino, pero en realidad es un mero instrumento mecánico.
El argumento de la caja china va en contra de la IA fuerte, es decir, de la posibilidad de lograr una máquina que piense realmente. Según Searle, si una máquina supera el test de Turing, no significa que la máquina piense, que “sepa” lo que está haciendo, que tenga conciencia. La caja china es una metáfora del ordenador como dispositivo ciego semánticamente. Es un dispositivo de mera manipulación de símbolos, sin semántica ni consciencia.
En su obra “El misterio de la conciencia” [2009], Searle sostiene las siguientes ideas:
La conciencia no es algorítmica, es decir, en el cerebro no hay un programa de ordenador que produzca la conciencia.
La conciencia es irreductible, es decir, no puede explicarse en función de mecanismos de menor nivel.
La mente y la conciencia son fenómenos neurobiológicos causados por el cerebro, pero ignoramos el mecanismo implicado. La conciencia es un rasgo de nivel superior del sistema nervioso. Su posición la denomina “naturalismo biológico”.
Otras opiniones sobre la IA
Para Roger Penrose, la IA fuerte (replicar la mente humana) no es posible. Ni tampoco la IA débil (simular la mente humana). En su obra “La Nueva Mente del Emperador” [1996] defiende lo siguiente:
La conciencia humana no es algorítmica. Por lo tanto no puede ser modelada por un ordenador digital. En la actividad mental hay algo que no es computable, y por tanto imposible de programar en un ordenador. La IA fuerte es imposible.
La intuición, la creatividad, la inspiración y la comprensión son ejemplos conscientes de tareas no computables.
La conciencia humana no puede explicarse como la suma de la actividad neuronal por muy compleja que esta sea.
Automatismo es diferente de conciencia. Los cálculos u operaciones los puede hacer un ordenador, pero no la decisión de realizar cálculos. La conciencia y la inteligencia residen en la decisión.
La conciencia humana resulta de la conjunción de dos polos: de lo computable y de lo no computable.
Hay un mundo platónico de las ideas y un mundo real que se conectan para producir conciencia.
La mecánica cuántica debe desempeñar un papel esencial para la comprensión de la conciencia, la cual estaría relacionada con el tema del colapso de la función de onda.
Un gran defensor de la IA fuerte es Daniel Dennett [1995, 1996]:
El test de Turing constituye un medio suficiente para detectar la presencia de la inteligencia.
Existen sistemas informáticos que exhiben algunos rasgos característicos de la inteligencia humana.
En ningún nivel de análisis del cerebro, aparece la conciencia. Sin embargo, el cerebro sí es consciente y posee inteligencia.
La conciencia es el resultado de la actividad de las neuronas y de los módulos de procesamiento distribuidos en paralelo. No es una entidad y no se encuentra en ningún lugar del cerebro. Por lo tanto, tiene que ser técnicamente posible replicar su funcionalidad mediante un sistema informático.
Ray Kurzweil −ingeniero, inventor, visionario, escritor científico especializado en ciencias de la computación e IA, y apóstol del transhumanismo− prevé un gran futuro a la IA. Sus ideas principals, reflejadas en varios libros que han tenido gran impacto [ver Bibliografía], son:
La realidad última del universo es la información. La información se organiza en forma de patrones jerárquicos. Esta estructura se refleja en el cerebro humano. En el neocortex hay 300 millones de reconocedores de patrones, que también se organizan jerárquicamente y que no solo sirven para percibir el mundo, sino que son responsables de la mayor parte de los aspectos del pensamiento humano. Es su “teoría de la mente como reconocedor de patrones” (the pattern recognition theory of mind). El cerebro es un “fractal probabilístico recursivo” codificado en el genoma humano.
El ritmo de innovación del campo de las tecnologías de la computación crece de manera exponencial. Sigue la ley de los retornos acelerados (the law of accelerating returns), una ley similar a la ley de Moore, pero extendida al desarrollo tecnológico en general. Hacía 2029 un ordenador pasará el test de Turing, demostrando así tener inteligencia y consciencia de sí mismo.
A su vez, las máquinas serán capaces de crear nuevas máquinas más inteligentes que ellas mismas. Se producirá una explosión de inteligencia mediante una mejora auto-recursiva. Entonces se llegará a una singularidad tecnológica hacia 2045, cuando la IA no podrá distinguirse de la inteligencia humana. Se alcanzará la IA fuerte, una IA basada en un cerebro digital indistinguible del cerebro humano. La consciencia es una propiedad emergente de un sistema físico complejo. Por lo tanto, un cerebro digital tendría la misma consciencia emergente que un cerebro real.
Esta singularidad supondrá la fusión entre tecnología y biología. Las máquinas convergerán con los seres humanos, ya que seremos capaces de incorporar dicha inteligencia a nuestros cuerpos y no habrá distinción entre humanos y máquinas. También las máquinas podrán ser espirituales, pues las experiencias espirituales tienen patrones de reacciones neuronales que podrán ser reproducidos por las máquinas.
Inteligencia artificial general
La IA general (Artificial General Intelligence) es un término acuñado por el físico Mark Gubrud en 1997. Tiene las características siguientes:
Enfatiza el carácter general de la inteligencia como una facultad integradora y holística.
Trata de fundamentar la inteligencia mediante una teoría general (el “qué”), un modelo formal de la teoría (el ¨cómo”) y una implementación práctica computacional del modelo.
Es la inteligencia de una máquina hipotética que podría ejecutar cualquier tarea que pueda ejecutar un ser humano.
Trata de integrar muchas técnicas que actualmente están dispersas o no suficientemente relacionadas como: lógica matemática, representación del conocimiento, sistemas de producción, computación evolutiva, agentes inteligentes, redes neuronales, aprendizaje profundo (deep learning, etc. En este sentido, se trata de una ciencia interdisciplinaria que intenta conectar todas estas técnicas bajo el paraguas de la IA.
Está orientada a resolver una gran variedad de problemas complejos en una amplia variedad de dominios. Su objetivo es la creación de una inteligencia tan amplia como la humana e incluso transhumana, más que desarrollar simplemente sistemas como herramientas para los operadores humanos en dominios específicos. En estos momentos los humanos tenemos IA general pero no las máquinas.
Los sistemas especializados en dominios específicos no pertenecen a la IA general. Por ejemplo, el ordenador Deep Blue (especializado en el juego del ajedrez) y sistemas expertos orientados a dominios específicos (diagnóstico médico, análisis molecular, etc.).
El proyecto Cyc de Douglas Lenat y el proyecto Soar de Allen Newell se consideran que caen dentro del ámbito de la IA general [ver Adenda].
Los problemas que no puede resolver la IA general caen bajo lo que se conoce informalmente como “IA difícil” (hard Artificial Inteeligence). Problemas que pertenecen a la IA difícil son: la visión artificial, la comprensión del lenguaje natural y la traducción automática. Una IA que cubra la IA general y la IA difícil se denomina “IA completa” (full Artificial Intelligence).
MENTAL: Los Límites de la Inteligencia Artificial
Los límites de la IA son los arquetipos primarios
Con MENTAL se arroja luz al problema de los límites de la IA:
Arquetipos primarios.
Mundo interior y mundo exterior comparten la misma esencia: los arquetipos primarios.
Mente, cerebro y conciencia.
La mente no es un epifenómeno del cerebro; es algo independiente del cerebro y que da significado a nuestras experiencias. El cerebro es un instrumento de la mente. No es possible definer la conciencia, pero sí podemos conocer sus arquetipos.
Si fuera posible construir una máquina inteligente, esto significaría que la mente es un fenómeno producido por el cerebro. No podemos producir una mente a partir de la materia sencillamente porque la mente está en un nivel superior a la materia. Tampoco tiene sentido hablar de máquinas espirituales. Es un contrasentido puesto que lo espiritual está en un nivel superior al mental y al físico.
La máxima IA posible.
Si admitimos que las primitivas semánticas universales representan la suprema abstracción, la máxima abstracción posible, este límite es también el límite de la IA.
IA fuerte.
No tiene sentido hablar de la IA fuerte sino de las posibilidades expresivas de los arquetipos de la conciencia, que son enormes. Podemos mencionar de manera destacada dos:
Su poder reflexivo. Por ejemplo, la posibilidad de utilizar reglas de orden superior (reglas de reglas o meta-reglas) de cualquier número de niveles. Esta capacidad reflexiva permiten simular la inteligencia: En función de las circunstancias, se activan unas reglas u otras. Si estas reglas se establecen con la suficiente generalidad, las máquinas reaccionarían ante diferentes situaciones de una forma tal que en la práctica parecerían que tendrían iniciativa, diluyéndose así la distinción entre IA fuerte y débil.
La capacidad de modificar las propias reglas y de su código en general.
Máquina y conciencia.
No es posible crear una máquina con conciencia ni con consciencia. No tiene sentido hablar de “conciencia artificial”. Una máquina nunca podrá tomar decisiones por sí misma porque no tiene consciencia ni conciencia. Las decisiones las toma de forma mecánica en función de las circunstancias (eventos en el entorno). La conciencia no es computable, pero podemos utilizar los arquetipos de la conciencia para realizar procesos.
IA vs. programación.
Con los arquetipos primarios, los desarrollos de IA se simplifican porque trabajamos con arquetipos, que son recursos potentes y creativos. El trabajar con arquetipos proporciona la suprema capacidad de relación. Además, se diluye la distinción entre los desarrollos informáticos convencionales y la IA porque sus fundamentos son los mismos.
Test de Turing.
El test de Turing es un test superficial, un enfoque de “caja negra” de tipo conductista. Se basa en que no importa cómo funciona internamente sino cómo se comporta externamente. Si exhibe comportamiento inteligente, es que es inteligente. Pero el enfoque debe ser profundo: conocer cómo funciona la inteligencia, sus mecanismos internos, que están basados en grados de libertad, que son los arquetipos de la conciencia. Lo externo es la manifestación de lo interno.
Hay que diferencia entre pensar y tener comportamiento inteligente. Por ejemplo, Gary Kasparov tras su derrota en el campeonato de ajedrez frente al computador Deep Blue, se le preguntó si creía que la máquina pensaba, a lo que contestó: “Pensar no, sin embargo mostraba un comportamiento inteligente, comprendía la estrategia”.
Información.
La realidad última no es la información sino los arquetipos primarios. La información deriva de las manifestaciones de los arquetipos primarios.
IA general.
Se suele decir que la IA especializada (particular) nos conduciría algún día a la IA general, en un proceso de evolución ascendente. Pero este sería un proceso lento y complejo porque la integración de técnicas especializadas es difícil. A efectos de lograr una IA general es mejor y más efectivo utilizar la unificación y el metodo descendente: utilizar conceptos generales, en este caso los arquetipos primarios. La IA general debe basarse también en un lenguaje común que relacione esos conceptos generales, para que todos los sistemas se desarrollen con los mismos recursos lingüísticos y puedan integrarse fácilmente. Esto se logra con MENTAL, que es un lenguaje transdisciplinario y que unifica teoría y práctica.
La IA específica es también una vía válida. Esta justificada cuando se trata de resolver problemas específicos, mientras no se logre un marco general proporcionado por la IA general.
Adenda
Test de Turing inverso
Al día de hoy, el test de Turing no ha podido ser pasado por ninguna máquina. Una aplicación práctica de este hecho se utiliza para la eliminación de accesos automáticos en páginas web. Los tests de Turing inversos, o CAPTCHAS se han convertido en práctica habitual. La prueba más común consiste en introducir un conjunto de caracteres que se muestran en una imagen distorsionada. Se supone que una máquina no es capaz de comprender e introducir la secuencia de forma correcta, por lo que sola mente un ser humano podría hacerlo.
Cyc
Cyc −del ingles, encyclopedia− es un proyecto de IA que intenta construir una base de conocimientos de tipo general que permitan a las aplicaciones de IA realizar razonamientos de sentido común. El proyecto fue iniciado por Douglas Lenat en 1984. Cyc contiene una multitud de reglas simples. La base de datos contiene unos 100.000 conceptos y un millón de declaraciones (aserciones y reglas).
Soar
El proyecto Soar es una arquitectura para la IA general creada por John Laird, Paul Rosenbloom y Allen Newell, y difundida en 1987 en un artículo de la revista Artificial Intelligence. Desde su difusión ha sido utilizada ampliamente para desarrollar diferentes modelos del comportamiento humano. El objetivo último de Soar es conseguir IA general, aunque se reconoce que este objetivo es muy ambicioso y de largo plazo.
Soar utiliza un enfoque basado en el proceso de símbolos (symbol system hypothesis) para representar el conocimiento operativo y descriptivo. Utiliza reglas del tipo “condición – acción”, como las utilizadas en los sistemas expertos. Utiliza un espacio del problema, que es el conjunto de los diferentes estados que pueden ser alcanzados por el sistema. Se buscan los estados que más se acercan al estado objetivo (la solución del problema). A su vez, estos estados se convierten en subobjetivos. Y así sucesivamente.
Soar es una evolución del Logic Theorist, presentado en 1955 por Allen Newell, Herbert Simon y Cliff Shaw, que fue el primer sistema de IA. Fue capaz de demostrar 38 de los 52 teoremas de Principia Mathematica de Russell y Whitehead.
El premio Loebner para el test de Turing
Desde el año 2000, en que se cumplió el 50 aniversario de la propuesta del test de Turing, se otorga el Premio Loebner al mejor programa inteligente que más se aproxime al comportamiento humano.
El Premio Loebner tiene un formato que sigue el estándar establecido en el test de Turing. Un juez humano se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el control de un computador, y la otra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe las respuestas. En base a las respuestas, el juez debe decidir qué pantalla es la controlada por el ser humano y cuál es la controlada por el programa.
Se ofertan tres premios. Una medalla de bronce anual (y 2.000 $), para el programa más parecido a un ser humano de los presentados cada año. Una medalla de plata (y 25.000 $) que se otorgará una sola vez, para el primer programa en el que los jueces no logren distinguir de un ser humano, por medio de una pantalla de texto, premio aún no concedido. Y una medalla de oro (y 100,000 $), que también se otorgará una sola vez, para el primer programa indistinguible y que use interfaces visual y auditivo.
Bibliografía
Copeland, Jack. Inteligencia Artificial. Una introducción filosófica. Alianza, 1993.
Copeland, Jack (ed.). The Essential Turing: Seminal Writings in Computing, Logic, Philosophy, Artificial Intelligence, and Artificial Life plus The Secrets of Enigma. Oxford University Press, USA, 2004.
Dennett, Daniel. La conciencia explicada: una teoría interdisciplinar. Paidós Ibérica, 1995.
Dennett, Daniel. Contenido y conciencia. Gedisa, 1996.
Gardner, Howard. Inteligencias múltiples: la teoría en la práctica. Paidós Ibérica, 2006.
Jubak, Jim. La máquina pensante. El cerebro humano y la inteligencia artificial. Ediciones B, 1993.
Kurzweil, Ray. La singularidad está cerca. Cuando los humanos transcendamos la biología. Lola books, 2012.
Kurzweil, Ray. Cómo crear una mente. El secreto del pensamiento humano. Lola books, 2013.
Kurzweil, Ray. La era de las máquinas inteligentes. Consejo Nacional de Ciencia y Tecnoogía, 1994..
Kurzweil, Ray. La era de las máquinas espirituales. Cuando los ordenadores superen la mente humana. Planeta, 1999.
Laird, John; Rosenbloom, Paul; Newell, Allen. Soar: An Architecture for General Intelligence. Artificial Intelligence 33: 1-64, 1987.
Leavitt, David. Alan Turing. El hombre que sabía demasiado. Antoni Bosch Editor, 2008.
MacCorduk Pamela. Máquinas que piensan. Una incursión personal en la historia y las perspectivas de la inteligencia artificial. Tecnos, 1991.
Mazlish, Bruce. La cuarta discontinuidad. La coevolución de hombres y máquinas. Alianza, Madrid, 1993.
Moravec, Hans. El hombre mecánico. El futuro de la robótica y la inteligencia humana. Salvat, 1993.
Minsky, Marvin. La sociedad de la mente. Ediciones Galápago, 1984.
Penrose, Roger. La nueva mente del emperador. En torno a la cibernética, la mente y las leyes de la física. Grijalbo, 1996.
Penrose, Roger. Las sombras de la mente: hacia una compresión científica de la consciencia. Crítica, 1996.
Penrose, Roger. Lo grande, lo pequeño y la mente humana. Akal, 2006.
Richards, Jay W. Are we Spiritual Machines? Ray Kurzweil vs. the Critics of Strong A.I. Discovery Institute, 2002.
Searle, John R. El misterio de la conciencia. Paidós Ibérica, 2009.
Searle, John R. El redescubrimiento de la mente. Crítica, 1996.
Searle, John R. Minds, Brains and Programs. Behavioral and Brain Sciences 3 (3): 417-457, 1980.
Shieber, Stuart M. (ed.). The Turing Test: Verbal Behavior as the Hallmark of Intelligence. Bradford Books, 2004.
Strathern, Paul. Turing y el ordenador. Siglo XXI de España Editores, 1999.
Turing, Alan. Computing Machinery and Intelligence. Mind 49 (236): 433-460, 1950. Disponible online. En español: Anderson, Alan Ross (comp.), Controversias sobre mentes y máquinas, Tusquets, 1984.
Wang, Pei. Artificial Intelligence. A gentle introduction. Internet.